從 Day 1 到 Day 6,我們一步步打造了本地 LLM 的基礎環境。這一週的核心目標是:
✅ 讓模型能在自己的電腦上跑起來,並具備 API 呼叫能力。
經過六天的努力,我們已經完成:
llama2 測試推理/api/generate 正常運作ollama pull gemma3:4b 拉取模型nvidia-smi / htop / nvtop 監控效能[ 使用者 ]
     ⇔
[ Ollama CLI / API ]
     ⇔
[ LLM 模型 (LLaMA / Gemma / Gemini) ]
重點成果:
| 模型 | VRAM 需求 | 中文表現 | 程式碼生成 | 創意寫作 | 適合用途 | 
|---|---|---|---|---|---|
| LLaMA 3 (7B) | ~5.7GB | ★★★★☆ | ★★★★★ | ★★☆☆☆ | 技術、程式碼 | 
| Gemma 3 4B | ~3.9GB | ★★★★☆ | ★★★☆☆ | ★★★★★ | 本地對話、創作 | 
快速查看 GPU 狀態
nvidia-smi
watch -n 0.5 "nvidia-smi --query-gpu=memory.used,memory.total --format=csv,noheader,nounits"
即時監控 CPU / RAM
htop
容器管理神器:Portainer
→ 直接在瀏覽器操作容器,超直觀,方便GUI管理
節省 VRAM